home *** CD-ROM | disk | FTP | other *** search
/ CD ROM Paradise Collection 4 / CD ROM Paradise Collection 4 1995 Nov.iso / science / neumap3.zip / NUMP.ZP / INI.HLP < prev    next >
Text File  |  1994-09-03  |  2KB  |  47 lines

  1. Fast Training Program;
  2.  
  3. 1. Purpose;
  4.  a. Initialize a MLP using random initial weights
  5.  b. Train a MLP network using a method much faster than BP
  6.  
  7. 2. Features;
  8.  a. Uses a batching approach, so the order of training 
  9.     patterns is unimportant
  10.  b. Has adaptation of learning factor
  11.  c. Shows training MSE and error percentages
  12.  d. Does not save weights to the disk, in the demo version
  13.  
  14. 3. Example Run of Fast Training Program
  15.  a. Go to the "Batch Processing" option and press <ret>
  16.  b. Observe the parameter file with commented keyboard responses;
  17.  
  18. 10, .0005           ! Enter number of iterations, MSE threshold
  19. 2                   ! Enter 1 for old weights, 2 to initialize with random weights
  20. gls.top             ! file storing network structure
  21. gls                 ! filename for training data 
  22. 1                   ! 1 if the data file contains desired outputs, 2 else
  23. 0                   ! Enter number of patterns to read (0 for all training patterns) 
  24. 0, 0                ! Enter numbers of 1st and last patterns to examine (0 0 for none)
  25. .03                 ! learning factor
  26. gls1.wts            ! filename for saving the trained weights
  27. 4                   ! 1 to continue training, 2 to start new network, 3 for a new data file, 4 to stop
  28.  
  29.  
  30.     The program will read all patterns from the file gls, and train a MLP
  31.     using the network structure file gls.top, which is shown below.
  32.  
  33.            4
  34.            4           5           2           1
  35.            1           1           1
  36.  
  37.     The network will have 4 layers including 4 inputs, 7 hidden units
  38.     divided between 2 hidden layers, and 1 output. In addition, layers 2,
  39.     3, and 4 connect to all previous layers. Training will stop
  40.     after 10 iterations, or when the MSE % reaches .0005 . The final
  41.     network weights will be stored in the file gls1.wts. 
  42.  c. Exit the DOS editor and observe the program running
  43.  d. Go to the "Examine Program Output" option and press <ret>
  44.  e. You can run this program on your own data, simply by editing the 
  45.     parameter file in the "batch Run" option.
  46.  
  47.